N°16 / Regards multiples sur des formes et des pratiques sociales de résistances face à l’« insécurité sociale »

La trajectoire numérique d’une rumeur transidentitaire. Et reconfigurations normatives au-tour du cas Brigitte Macron

Natacha SADOU-WABI

Résumé

En 2021, la rumeur selon laquelle Brigitte Macron serait née « Jean-Michel Trogneux » a montré la fulgurance des infox : un récit sans source fiable, relayé par la logique de l’« ami d’un ami », amplifié par les médias complotistes et nourri par les angoisses autour des identités de genre.

Notre analyse croise sociologie des rumeurs, sciences de l’information et études de genre. Elle révèle comment la rhétorique du « mensonge d’État » a permis à cette narration transidentitaire de résonner avec les peurs collectives et de contourner les garde-fous journalistiques. Face à sa viralité, l’État a mobilisé en septembre 2024 les articles 27 et 29 de la loi de 1881 (fausses nouvelles, diffamation) et l’article 9 du Code civil (vie privée), tandis que le fact-checking s’est renforcé.

Ce cas emblématique éclaire le paradoxe français : conjuguer la répression technique et juridique de la désinformation avec une tradition de liberté d’expression et de respect des identités personnelles.

Mots-clés

Plan de l'article

Télécharger l'article

The Digital Trajectory of a Trans-Identity Rumor: Normative Reconfigurations and the Brigitte Macron Case

Abstract : In 2021, the rumor that Brigitte Macron had been born “Jean-Michel Trogneux” showcased the lightning speed of fake news: a source-less tale spread through “friend-of-a-friend” networks, amplified by conspiracy-minded media, and fueled by anxieties over gender identity.

Our analysis draws on the sociology of rumor, information science, and gender studies. It shows how “state-lie” rhetoric allowed this trans-identity narrative to tap into collective fears and sidestep journalistic safeguards. Confronted with its virality, the French government invoked, in September 2024, Articles 27 and 29 of the 1881 Press Law (false news, defamation) and Article 9 of the Civil Code (privacy), while fact-checking efforts intensified.

This emblematic case highlights the French paradox: reconciling technical and legal repression of disinformation with a long-standing commitment to free expression and respect for individual identities.

Keywords : Rumor, trans identity, fact-checking, freedom of expression, viral.

Par Natacha Sadou-Wabi, doctorante à l’université de Montpellier Paul-Valéry, LEIRIS.

Introduction

Depuis une dizaine d’années, l’environnement numérique s’est imposé comme un terrain privilégié pour la circulation rapide et incontrôlée des rumeurs, transformant en profondeur la manière dont elles se construisent, se propagent et s’ancrent dans la société. Loin d’être marginal, ce phénomène constitue aujourd’hui un objet central des sciences sociales, interrogeant à la fois les mécanismes de viralité informationnelle et les fondements mêmes du débat public.

Cette évolution prolonge des analyses déjà amorcées par Edgar Morin (1969) et Jean-Noël Kapferer (1990), qui ont montré comment ces récits collectifs se nourrissent d’incertitudes partagées et traduisent des tensions sociales latentes. En France, l’émergence en 2021 d’une rumeur transidentitaire visant l’épouse du président de la République, Brigitte Macron, illustre de manière exemplaire ces dynamiques. Loin de relever d’un simple écho médiatique, cette affaire concentre des enjeux socioculturels contemporains autour du genre, du complotisme et de la défiance envers les institutions politiques et médiatiques.

Les travaux de Pascal Froissart (2002) et de Jean-Bruno Renard avec Véronique Campion-Vincent (1992) ont déjà mis en lumière la manière dont le registre complotiste s’appuie sur des récits sensationnalistes et anxiogènes pour capter l’attention. Mais les scandales numériques actuels présentent des spécificités propres à un contexte marqué par la polarisation croissante du débat public et par une défiance généralisée à l’égard des instances traditionnelles de régulation de l’information.

La condamnation, en septembre 2024, de deux personnes pour complicité de diffamation publique, ainsi que la mobilisation massive des dispositifs techniques de vérification des faits, témoignent d’une prise de conscience institutionnelle. Cependant, elles invitent aussi à interroger les limites et les paradoxes d’une telle réponse.

En effet, la législation française, héritée de la loi sur la presse de 1881 et du code civil, peine à s’adapter à un espace numérique dont la régulation échappe largement aux dispositifs juridiques classiques. Ce décalage est renforcé par la tension entre une liberté d’expression profondément ancrée dans la culture française et les règles d’usage propres aux plateformes, auxquelles les internautes se réfèrent souvent pour contourner toute sanction légale.

Dès lors, une question centrale se pose : comment la diffusion massive d’une rumeur portant sur l’identité de genre devenue emblème d’un climat social nourri par la suspicion reconfigure-t-elle les règles qui structurent aujourd’hui l’espace public français.

Penser la rumeur numérique : entre pathologie, pouvoir et dispositif sociotechnique 

La littérature consacrée à ce phénomène oscille traditionnellement entre deux grandes lectures : l’une pathologisante, qui y voit un dérèglement cognitif collectif, et l’autre politique, qui l’appréhende comme un discours alternatif au pouvoir dominant. Mais à l’ère numérique, ces cadres deviennent partiellement inopérants s’ils ne sont pas articulés à une analyse technique et structurelle.

D’un côté, des auteurs comme Edgar Morin ou Hannah Arendt y voient une dérive mentale ou un trouble du lien social. Chez Morin, il s’agit d’un « cancer mental » exploitant les failles d’un imaginaire collectif fragilisé ; chez Arendt, d’une conséquence du mensonge organisé à grande échelle, qui ne produit pas seulement l’adhésion à l’erreur mais la désintégration même de l’idée de vérité. Dans cette lignée, Jean-Bruno Renard, spécialiste français des rumeurs et légendes urbaines, insiste sur leur rôle de « récit d’explication » dans les moments d’incertitude. Pour lui, la rumeur n’est pas un simple dysfonctionnement cognitif, mais un mode social de production de sens, qui se déploie d’autant plus vite qu’il répond à une attente émotionnelle ou symbolique latente. Ces lectures mettent en lumière l’effet corrosif sur les repères cognitifs et éthiques des sociétés, mais tendent à essentialiser les publics crédules et à négliger le rôle des contextes structurels et technologiques dans la fabrication du soupçon.

À l’opposé, une approche critique, inspirée de Michel Foucault ou des cultural studies, envisage ces récits comme un dispositif de résistance, un contre-discours mobilisé face aux narrations dominantes. Ils peuvent alors apparaître comme des actes de défiance, voire comme des tentatives de réappropriation du sens dans un univers saturé de communication institutionnelle. Dans ce cadre, les infox, même fausses, sont parfois perçues comme l’expression légitime d’un besoin de vérité alternative, d’un pouvoir de raconter autrement. Mais ce paradigme, souvent mobilisé dans les études de réception, tend à minimiser les effets concrets, notamment lorsqu’ils ciblent des minorités stigmatisées comme les personnes trans ou s’inscrivent dans des stratégies de manipulation politique.

Un troisième cadre, encore en construction, analyse les productions virales contemporaines comme le produit émergent d’un environnement sociotechnique, à la croisée des architectures algorithmiques, des affects collectifs et des opérations de captation de l’attention. Les travaux de Wardle, Tufekci ou Gillespie insistent sur cette dimension systémique : les plateformes ne sont pas de simples relais, mais des coproductrices d’engagement émotionnel, optimisé par la viralité. Dans cette perspective, le phénomène n’est ni seulement une erreur cognitive ni une invention politique, mais le résultat dynamique d’un système qui favorise les récits les plus rassembleurs et les moins vérifiables.

Ces approches ne s’excluent pas : elles constituent des couches interprétatives qui, combinées, éclairent la complexité du sujet. L’écho transidentitaire visant Brigitte Macron ne relève ni d’un pur délire collectif, ni d’un simple contre-discours marginal, ni d’un bug algorithmique : il est la coproduction d’angoisses sociales, d’opérations stratégiques et de logiques techniques de dissémination. Penser ces dynamiques à l’ère numérique exige ainsi une écologie théorique intégrée, attentive aux entrelacements entre le psychique, le politique et le technique.

Origines floues et mécanismes narratifs (schéma de l’ami d’un ami, sensationnalisme)

Du point de vue de l’épistémologie sociale, la rumeur peut être envisagée comme un mécanisme collectif fondamental d’élaboration du sens, qui éclaire la manière dont les sociétés cherchent à produire et valider des connaissances, particulièrement en l’absence de faits établis. Comme l’a montré Tamotsu Shibutani avec sa notion de « news improvisée », et plus récemment Kate Starbird avec le concept de « collective sensemaking », il s’agit de tentatives informelles de donner une cohérence à des événements ambigus et anxiogènes. Cette mise en récit collective est souvent amplifiée par la dissonance cognitive : face à des informations contradictoires, les individus tendent à privilégier les explications même erronées qui confirment leurs croyances préexistantes et réduisent leur inconfort psychologique.

Par ailleurs, son attrait, en particulier lorsqu’elle prend une tournure complotiste, tient à sa capacité à répondre à des besoins psychologiques fondamentaux : le besoin épistémique d’une explication simple et englobante ; le besoin existentiel de contrôle et de sécurité, en se percevant comme « initié » ; et le besoin social d’appartenance à un groupe se considérant comme éclairé. Elle n’est donc pas seulement un symptôme de désinformation, mais une manifestation complexe des dynamiques sociales et psychologiques qui façonnent la production de la vérité.

Modèle étape par étape de l'adhésion

L'adoption de la croyance peut être décomposée en un processus en quatre phases, où chaque étape renforce la précédente.

Prédispositions et terrain fertile :

Sa graine ne peut germer que sur un sol préparé. Ce terreau est constitué de prédispositions psychologiques et sociales : une méfiance préexistante et généralisée envers les institutions politiques, médiatiques et scientifiques ; des angoisses latentes liées à des transformations sociétales perçues comme déstabilisantes ; et une préférence pour une pensée intuitive et émotionnelle plutôt qu’analytique et délibérative. Sans ce contexte, elle resterait une simple curiosité.

Ancrage et exposition initiale :

La première exposition joue un rôle déterminant et s’appuie sur une formulation conçue pour contourner les défenses critiques. Le schéma de « l’ami d’un ami » (ADUA) instaure une proximité fictive, crédible mais invérifiable (Campion-Vincent & Renard, 1992). Souvent présentée sous forme de questions rhétoriques. Dans le cas de Brigitte (« Pourquoi n’y a-t-il pas de photos d’enfance ? », « Pourquoi ces gestes ‘masculins’ ? »), cette stratégie de ‘just asking questions’ agit comme un biais d’ancrage, inscrivant l’idée dans l’esprit du récepteur sans preuve directe et l’incitant à en rechercher lui-même la confirmation.

Le moteur du biais de confirmation : 

Une fois l’ancre cognitive établie, le biais de confirmation devient le principal moteur de consolidation. Ce mécanisme, parmi les plus documentés en psychologie, conduit à rechercher, interpréter et mémoriser sélectivement les informations confirmant une croyance, tout en minimisant celles qui la contredisent. Dans les groupes Telegram ou forums conspirationnistes, les « enquêteurs citoyens » ne mènent pas d’investigation impartiale : ils accumulent des « preuves » qui valident la thèse initiale, chaque trouvaille agissant comme un renforcement supplémentaire de la conviction.

Le blindage par le raisonnement motivé et l'effet ‘retour de flamme’ :

La phase finale correspond au blindage cognitif, où toute réfutation factuelle renforce la croyance plutôt que de l’ébranler.
Deux mécanismes l’expliquent : le raisonnement motivé, par lequel la croyance devient partie intégrante de l’identité et pousse l’individu à mobiliser ses ressources cognitives pour discréditer toute preuve contraire ; et l’effet retour de flamme, où la correction est perçue comme une agression ou une confirmation de la conspiration. La suppression de contenus ou la suspension de comptes n’est alors pas interprétée comme une application légitime des règles, mais comme la « preuve » que la vérité dérange.

Ce processus montre que la croyance est une construction active aux fonctions psychologiques identitaires, rendant inefficaces les stratégies de démystification basées uniquement sur les faits.
 L’affaire visant Brigitte Macron illustre parfaitement ce schéma : les discours transidentitaires y ont servi de catalyseur, réactivant des peurs liées à la déstabilisation des normes de genre et nourrissant la polarisation autour d’une supposée « idéologie woke » perçue comme menaçant les repères traditionnels.

Mutations techniques de la rumeur à l’ère du numérique

Si les ressorts psychologiques et sociologiques de la rumeur restent similaires à l’ère numérique, sa propagation explosive à grande échelle ne peut se comprendre sans analyser l'environnement dans lequel elle évolue. Jean-Noël Kapferer estimait dès les années 1980 que l’avènement des médias de masse ne l’avait pas rendu obsolète, mais lui avait donné de nouveaux formats. Ainsi, la viralité de l'affaire ‘Trogneux’ est le produit d'une interaction systémique entre l'architecture technique des services en ligne et les dynamiques sociales qu'elles favorisent. Il ne s'agit pas de deux phénomènes distincts, mais des deux faces d'une même boucle de rétroaction qui amplifient et radicalisent les contenus.

L'architecture technologique de la viralité

Les grandes plateformes numériques ne constituent pas des canaux de communication neutres. Leur architecture est spécifiquement conçue pour capter l’attention des utilisateurs et la transformer en valeur marchande. YouTube, Facebook, Instagram ou X (anciennement Twitter) reposent sur un modèle publicitaire dans lequel la durée de consultation est directement corrélée aux revenus générés. Les algorithmes, optimisés pour maximiser ce temps passé, tendent ainsi à privilégier les contenus les plus susceptibles de susciter une forte réaction émotionnelle (indignation, choc, fascination) plutôt que ceux présentant une valeur strictement informative.

Les recherches en psychologie sociale confirment cette tendance : la colère, la peur ou l’indignation génèrent davantage d’interactions que les faits établis. La visibilité d’un contenu dépend donc principalement de son intensité émotionnelle, non de sa véracité. Claire Wardle (2017), Tarleton Gillespie (2014) et Zeynep Tufekci (2017) ont montré que cette logique algorithmique favorise les contenus polarisants. Une étude du MIT (Vosoughi et al., 2018) a ainsi démontré que, sur X, les fausses informations se propagent plus rapidement et plus largement que les nouvelles authentiques, en raison de leur caractère plus surprenant et émotionnellement chargé. De même, une recherche de l’université d’Oxford (2022) a établi que l’algorithme de YouTube tend à amplifier la circulation des vidéos conspirationnistes, précisément parce qu’elles maximisent l’engagement des utilisateurs.

L’affaire dite « Trogneux » constitue une illustration de ce mécanisme. Elle réunissait plusieurs éléments caractéristiques de la viralité numérique : soupçon de secret d’État, transgression des normes de genre, attaque ad hominem. Les algorithmes ont contribué à accroître sa diffusion, tandis que les technologies de falsification numérique ont renforcé sa crédibilité apparente. Des deepfakes combinant des superpositions réalistes d’images, des imitations vocales et la reproduction de mimiques ou de caractéristiques lexicales ont circulé sur Instagram, TikTok, etc. Leur diffusion a donné l’illusion de preuves tangibles, contribuant à installer le doute dans une partie de l’opinion publique.

Cet enchaînement, associant incitations économiques, logiques algorithmiques et innovations techniques, pose la question de la capacité des dispositifs actuels de régulation à limiter efficacement la diffusion virale d’informations trompeuses à grande échelle.

Amplification dans les sphères complotistes

La diffusion initiale de cette affaire remonte à la fin de l’année 2021, lorsque Natacha Rey et la revue Faits & Documents publient, sur la chaîne YouTube d’Amandine Roy (se présentant comme médium), une vidéo de plus de quatre heures. Rey y expose les conclusions d’une prétendue enquête de trois ans, selon lesquelles l’épouse du président de la République serait née homme, sous le nom de Jean-Michel Trogneux. Elle évoque l’absence de certains documents d’état civil, le manque de photographies d’enfance et des ressemblances physiques avec son frère, interprétées comme des signes d’un « mensonge d’État ». Aucun élément vérifiable n’est toutefois présenté.

En janvier 2022, YouTube supprime la vidéo pour violation de ses règles relatives au harcèlement et adresse un avertissement à la chaîne d’Amandine Roy. Les abonnés réagissent en diffusant une copie hébergée sur Odysee (Becoming Brigitte, épisodes 4 à 7), accompagnée du « rapport Rey » en format PDF. Ce transfert est présenté comme une preuve de censure et largement relayé sur X à travers l’hashtag #CensoredTrogneux.

En parallèle, un canal Telegram privé intitulé « Dossier JMT » regroupant environ 18 000 membres début 2025, selon Euronews devient un espace central de mobilisation. Les participants y partagent des reproductions de documents d’état civil, des photographies scolaires et des mèmes satiriques ; les administrateurs, se présentant comme « enquêteurs citoyens », y coordonnent des campagnes de diffusion ciblée. Les instructions consistent à relayer massivement ces contenus sur Facebook ou dans les sections de commentaires des médias nationaux afin de « contraindre » les journalistes à enquêter.

La radicalisation s’accentue en mars 2024, lorsque YouTube supprime définitivement la chaîne secondaire d’Amandine Roy pour « harcèlement ciblé fondé sur l’identité de genre ». Dans les groupes Telegram, cette mesure est interprétée comme la « preuve ultime » d’une dissimulation. Les captures d’écran du message d’erreur sont alors diffusées avec la légende : « Quand ils censurent, c’est qu’on tient la bonne piste. »

De la transnationalisation de l’infox à la riposte documentaire citoyenne

Candace Owens : relais transatlantique

C’est dans ce contexte qu’elle a franchi les frontières. En mars 2024, la journaliste conservatrice américaine Candace Owens relaye l’infox dans une vidéo diffusée sur X et YouTube, affirmant qu’elle « parierait toute sa carrière » sur sa véracité, sans fournir la moindre preuve. Quelques jours plus tard, elle publie en France un livre intitulé Devenir Brigitte, cosigné avec Xavier Poussard, présenté comme une enquête irréfutable. Grâce à son audience déjà bien établie, Owens la diffuse à des centaines de milliers de personnes en Europe et aux États-Unis.

Sa popularité et son statut d’influenceuse de la droite américaine renforcent l’apparence de crédibilité de ses propos. Son ton affirmatif et ses formules définitives créent un effet de certitude, amenant certains publics à percevoir ses allégations comme des révélations journalistiques. Par ce biais, elle ancre progressivement la rumeur dans des sphères médiatiques moins radicales, brouillant la frontière entre opinion, désinformation et enquête. Cette montée en puissance va susciter, dès 2025, une contre-expertise décisive : la brochure de Tristan Legall.

La contre-enquête Legall : un fact-checking citoyen viral

Face au récit volumineux et sensationnaliste de Candace Owens, Tristan Legall a adopté la stratégie inverse : une brochure auto-éditée de 26 pages, Devenir Brigitte. Brigitte est bien une femme ! Contre-enquête, dont l’efficacité repose sur un fact-checking citoyen rigoureux. Il y juxtapose des sources primaires vérifiables (actes de naissance, registres électoraux, photographies d’archives) à chacune des « preuves » avancées par Owens ; chaque document est reproduit en fac-similé et accompagné d’un lien direct vers Légifrance ou les archives municipales, déplaçant ainsi le fardeau de la preuve du soupçon vers le dossier officiel. La concision du livret pour moins d’un mégaoctet en PDF est pensée pour la viralité : disponible sur Amazon et largement partagé sur X, il est rapidement désigné par le mot-dièse #ContreEnqueteBrigitte.

Cette diffusion fournit aux rubriques de fact-checking un kit de vérification prêt à l’emploi ; lors de l’appel de juillet 2025, l’avocat de Brigitte Macron verse d’ailleurs l’opuscule au dossier pour établir la mauvaise foi des prévenues. Legall, qui adopte un ton clinique plutôt que moral, ne cherche pas à stigmatiser les croyants ; il recentre le débat sur la vérifiabilité, obligeant les partisans de la rumeur, soit à contester l’authenticité d’archives publiques, soit à admettre l’absence d’éléments matériels. Sa portée reste toutefois circonscrite : les cercles complotistes les plus endurcis déplacent désormais leurs doutes vers la fiabilité même des registres d’état civil. Néanmoins, dans l’espace médiatique généraliste, la brochure l’a marginalisé et démontré qu’un fact-checking indépendant, transparent et aisément partageable peut reconfigurer le débat public en offrant aux indécis des repères documentaires solides, sans prétendre convertir les convaincus.

Fragilisation de la notion de vérité

Cette dynamique affecte en profondeur la production sociale de la vérité. Dès 1967, Hannah Arendt alertait sur le pouvoir du mensonge organisé à grande échelle. Dans Vérité et politique, elle observe que l’effet d’un matraquage prolongé de contre-vérités n’est pas que les citoyens prennent le mensonge pour la vérité, mais qu’ils cessent de croire qu’une vérité existe. « Si tout le monde vous ment tout le temps, le résultat n’est pas que vous croyez les mensonges, mais que plus personne ne croit plus rien. » Cette intuition préfigure l’ère de la post-vérité.
Face à un flux continu de désinformations et de récits contradictoires, le public peut sombrer dans un cynisme généralisé : « puisque tout est mensonge, plus rien n’est vrai ». Arendt souligne qu’une société privée de repères factuels perd la capacité de penser et de juger par elle-même, devenant plus vulnérable aux manipulations.

L’impact sur l’épistémologie sociale est considérable : ces pratiques sapent la confiance dans les autorités de la connaissance (scientifiques, journalistes, institutions) et brouillent la frontière entre vrai et faux, rendant la construction d’un savoir commun presque impossible.
Les chercheurs parlent alors de « bulles cognitives » ou de « chambres d’écho » pour désigner ces espaces où l’on ne consomme que des récits conformes à ses croyances, jusqu’à évoluer dans un univers factuel parallèle.
À l’échelle macrosociale, ce processus fragmente la sphère publique : il ne reste plus de socle factuel partagé, mais des publics cloisonnés, chacun attaché à sa « vérité » souvent nourrie de spéculations ou de théories alternatives. Une telle configuration sape la possibilité même d’un débat démocratique rationnel, qui suppose un accord minimal sur les faits.

De la rumeur à l’obstruction : recul des droits et défaillance de la régulation

Au-delà de ses effets dans la sphère interpersonnelle, l’infox a été instrumentalisée à des fins politiques. Lors du débat sénatorial de février 2025 sur un amendement visant à démédicaliser le changement d’état civil, plusieurs élus des groupes LR et RN ont invoqué cette infox pour soutenir un sous-amendement rétablissant des exigences médicales et psychiatriques. Ce détournement rhétorique a conduit au gel du calendrier législatif : l’Assemblée nationale a reporté l’examen du texte. La conséquence a été immédiate : la France a reculé dans le Trans Rights Index 2025 de Transgender Europe ainsi que dans la carte arc-en-ciel d’ILGA-Europe (61,38 % contre 62,31 % en 2024), les deux organisations mentionnant explicitement l’incertitude législative comme facteur de dégradation.

Il révèle également l’impuissance structurelle des démocraties libérales face à ce type de perturbation informationnelle. Depuis le 1ᵉʳ juillet 2025, le Code of Practice on Disinformation est devenu contraignant, mais son application demeure limitée : l’ARCOM ne dispose que d’une trentaine d’auditeurs pour traiter des millions de contenus et admet que la traçabilité algorithmique reste « partielle » en raison d’un accès technique restreint. Les plateformes exploitent en outre l’extraterritorialité de leurs serveurs : en janvier 2025, The Guardian rapportait que X centralisait ses journaux de connexion aux États-Unis, entravant de facto les audits européens.

Tant que les flux transfrontaliers ne font l’objet d’aucune restriction, mesure incompatible avec les principes fondateurs de l’Union européenne et la tradition française de liberté d’expression, la régulation demeure contournable. Ce décalage entre ambition normative et capacité d’exécution offre un terrain favorable à la persistance des rumeurs en ligne, affaiblissant durablement l’efficacité de l’action politique.

Analyse comparative : "Trogneux" comme cas d’école de la désinformation à dimension genrée

Pour en saisir la portée, l’affaire doit être replacée dans un contexte international de désinformation à dimension genrée : l’usage stratégique de fausses informations mobilisant stéréotypes de genre, représentations du corps et connotations sexuelles pour délégitimer une figure publique, particulièrement lorsqu’il s’agit d’une femme en position de pouvoir. Contrairement à une idée reçue, ces campagnes ne sont pas exclusivement initiées par des hommes : elles peuvent être produites ou amplifiées par des femmes, pour des raisons idéologiques, politiques, culturelles ou personnelles. Le caractère genré de l’attaque ne réside donc pas dans l’identité des diffuseurs, mais dans les ressorts symboliques activés et leurs effets sur la crédibilité de la cible.

Cas comparatif 1 : Michelle Obama

L’ancienne Première dame des États-Unis a été la cible d’une rumeur persistante affirmant qu’elle serait une femme transgenre. Cette accusation s’appuie sur des représentations caricaturales du corps féminin noir, historiquement construit comme moins féminin, voire masculinisé, au croisement du racisme et du sexisme. Bien que transphobe dans sa formulation, elle vise surtout à délégitimer une figure publique féminine racisée en insinuant que sa présence dans l’espace politique reposerait sur une dissimulation.

Cas comparatif 2 : Jacinda Ardern

L’ancienne Première ministre de Nouvelle-Zélande a également été confrontée à des attaques en ligne très virulentes, souvent appuyées sur des insinuations concernant son apparence, sa féminité, ou une supposée identité de genre cachée. Une analyse a révélé que le vitriol en ligne la visant était 50 fois plus élevé que pour toute autre personnalité publique étudiée dans le pays. Ces discours participent d’un climat visant à affaiblir l’autorité politique d’une femme en jouant sur les codes implicites de ce qui est jugé acceptable ou légitime chez une dirigeante, et ont été cités comme un facteur ayant contribué à sa démission.

Cas comparatif 3 : Brigitte Macron

Quant à celle concernant l’épouse du président français, elle s’est largement répandue en ligne, portée notamment par des femmes et des personnalités issues de cercles complotistes. Si elle repose sur une accusation infondée, elle active néanmoins des imaginaires collectifs puissants autour de la transidentité, du mensonge d’État et de la perte des repères genrés. L’objectif implicite semble moins porter sur l'identité de Brigitte Macron elle-même que sur une stratégie de délégitimation politique de son mari, en brouillant les frontières entre vie privée, genre et pouvoir.

Le droit national à l'épreuve du numérique

La première réponse fut juridique et nationale : Brigitte Macron et son frère ont engagé des poursuites pour diffamation et atteinte à la vie privée, sur le fondement des articles 27 et 29 de la loi du 29 juillet 1881 et de l’article 9 du Code civil. Condamnées en première instance en septembre 2024, les prévenues ont été relaxées par la cour d’appel le 10 juillet 2025. Ce jugement, loin de valider la rumeur, met en évidence les limites structurelles du droit de la presse face aux logiques de circulation propres à l’environnement numérique.

Deux points majeurs ont motivé la décision : Absence de caractère diffamatoire de l’imputation d’une transidentité : dans un contexte où la transition de genre est un droit reconnu, une telle affirmation n’est pas considérée comme portant atteinte à l’honneur ; seul le grief de falsification d’état civil relevait du débat juridique. Exception de bonne foi : la cour a retenu que les prévenues disposaient d’une base factuelle jugée suffisante, n’avaient pas agi par animosité personnelle et traitaient d’un sujet relevant de l’intérêt général ; leur statut de non-journalistes justifiait en outre une appréciation moins stricte des exigences déontologiques.

L’affaire illustre l’inadéquation d’un cadre législatif pensé pour la presse écrite face à la viralité décentralisée des réseaux sociaux et au statut hybride des « enquêteurs citoyens ». Elle montre également que la judiciarisation peut produire un effet Streisand : chaque étape procédurale a été réinterprétée par les communautés complotistes comme une preuve de censure, renforçant à la fois la visibilité et la crédibilité des allégations.

Vers un cadre régulatoire et une éthique du numérique : la difficile mise en œuvre

Face aux limites des droits nationaux, le Digital Services Act européen, entré en application pour les grandes plateformes en août 2023, représente un changement de paradigme. Si ces mesures sont ambitieuses, il est essentiel de souligner que leur efficacité réelle est loin d'être garantie, car l'incapacité formelle et pratique à mettre en place un système de régulation et de contrôle effectif demeure une problématique majeure.

Cadre juridique européen : DSA, RGPD et co-régulation

Ces dernières années, l’Union européenne a adopté plusieurs directives majeures pour encadrer l’espace numérique, dont certaines ciblent directement la désinformation. Le Digital Services Act (DSA) en constitue la pierre angulaire. Ce règlement impose aux VLOPs (very large online platforms) d’évaluer et de réduire les risques systémiques, y compris « la diffusion de contenus illégaux » et « les effets négatifs sur les droits fondamentaux et les processus démocratiques, tels que la manipulation ou la désinformation ».

Concrètement, les géants du web doivent analyser la circulation de ces contenus sur leurs services et mettre en place des mesures correctives : modération renforcée, ajustement des algorithmes, partenariats avec des organisations de fact-checking, etc. Mais la mise en œuvre se heurte à des obstacles majeurs. Ces entreprises, technologiquement très avancées, disposent de marges de manœuvre importantes pour contourner les obligations ou les appliquer de manière minimale.

Le DSA introduit aussi le principe d’accountability (reddition de comptes) : obligation de transparence sur les politiques de modération, accès des chercheurs aux données, audits indépendants. Toutefois, la complexité des systèmes et la vitesse de propagation des infox rendent ces dispositifs souvent insuffisants.

L’un des volets les plus ambitieux est la clarté algorithmique. Les plateformes doivent désormais indiquer, dans leurs conditions générales d’utilisation, « les principaux paramètres utilisés dans leurs systèmes de recommandation » et proposer au moins une option non personnalisée. L’objectif : démystifier « l’algorithme » et réduire les bulles de filtre. Mais cet objectif se heurte à deux limites structurelles : Les algorithmes évoluent en permanence ; leur fonctionnement précis est protégé par le secret industriel.

Enfin, le DSA interdit certains ciblages publicitaires abusifs, visant indirectement les stratégies de micro-propagande personnalisée révélées lors du scandale « Cambridge Analytica ». Mais, là encore, la traçabilité et le contrôle de ces pratiques restent complexes, et leur encadrement exhaustif demeure difficile à atteindre.

Le cas français – corégulation par l’ARCOM

En France, la loi de 2018 a confié à l’ARCOM un rôle central dans la lutte contre la désinformation, en obligeant les géants du numérique à publier chaque année un rapport sur la suppression de faux comptes, la désindexation de contenus trompeurs et les ajustements algorithmiques. Présenté comme un modèle de corégulation, ce dispositif se heurte toutefois à trois faiblesses majeures qui en limitent l’impact.

Sur le plan démocratique, la nomination des membres par l’exécutif et les présidences d’assemblées, sans investiture publique ni audition systématique, alimentent les soupçons de dépendance politique. Or, pour contrer efficacement une rumeur, il faut que l’autorité chargée de la réguler soit perçue comme neutre : sinon, chaque suppression de contenu risque d’être réinterprétée comme un acte de censure, renforçant la croyance initiale.

Sur le plan procédural, l’opacité des délibérations et la publication différée des rapports affaiblissent la confiance dans le processus décisionnel (throughput legitimacy). Ce manque de transparence empêche la société civile, les chercheurs et les journalistes de contrôler l’action de l’ARCOM en temps réel, laissant aux plateformes la possibilité de retarder ou contourner les recommandations sans pression publique immédiate.

Enfin, sur le plan de l’efficacité, l’absence de sanctions financières dissuasives réduit l’ARCOM à un simple name and shame. Pour des acteurs mondiaux aux revenus colossaux, l’impact réputationnel est faible, et les contenus trompeurs continuent de circuler jusqu’à ce que la régulation intervienne, souvent trop tard pour en limiter la viralité.

En 2022, l’Autorité a proposé de renforcer ce cadre : plus de transparence, un meilleur système de signalement, l’identification des sources peu fiables ou liées à des États, la lutte contre les réseaux de diffusion massive, et un effort accru d’éducation aux médias. Ces recommandations anticipaient le Digital Services Act (DSA), salué par l’ARCOM pour ses obligations plus strictes et ses sanctions pouvant atteindre 6 % du chiffre d’affaires mondial des sites.

Le basculement vers le cadre européen ne sert pas seulement à « harmoniser les règles du jeu » ; il trahit aussi la crainte, chez les responsables politiques, de voir leur pouvoir dilué dans un espace numérique échappant largement à l’emprise étatique.

Régulation de la communication politique en ligne : avancées et angles morts

Si le DSA encadre la désinformation dans son ensemble, l’UE développe un dispositif spécifique pour la communication politique numérique, afin de préserver la sincérité électorale. Le règlement européen 2024/900 impose, dès 2026, l’identification explicite des publicités politiques, la transparence sur leurs financeurs, leur coût et leurs critères de ciblage, tout en interdisant le microciblage reposant sur des données sensibles.

En France, la loi du 22 décembre 2018 autorise déjà la suspension judiciaire de contenus « manifestement inexacts » en période pré-électorale, et impose aux services en ligne la tenue d’un registre public des publicités politiques. Le contrôle, assuré par la CNCCEP et l’ARCOM, reste toutefois limité par le manque de moyens : En 2025, seules 18 injonctions ont été émises, sans sanction significative.
Ces garde-fous se heurtent à trois obstacles majeurs : la difficulté de prouver l’ingérence étrangère, le contournement via influenceurs ou sociétés écrans, et la porosité entre opinion, satire et manipulation. Sans pouvoirs d’audit renforcés ni sanctions harmonisées à l’échelle européenne, la régulation demeure surtout déclarative.

En complément, le RGPD contribue indirectement à limiter la désinformation en encadrant le ciblage algorithmique, tandis que le Code de bonnes pratiques (2018, révisé 2022) engage volontairement les plateformes à supprimer ou déréférencer les contenus trompeurs. Mais l’absence de contrainte juridique rend ces engagements fragiles, laissant subsister des marges de manœuvre pour les acteurs les moins coopératifs.

Transparence algorithmique et responsabilité des plateformes
 

L’hermétisme des canaux de diffusion constitue un facteur structurel de propagation de fausses allégations : l’absence d’explication sur la hiérarchisation des contenus empêche d’identifier d’éventuels biais ou manipulations. Lorsque la mise en avant de contenus complotistes découle d’optimisations destinées à maximiser l’engagement, il s’agit d’un choix de conception algorithmique appelant débat et régulation. D’où l’accent, dans les polémiques récentes, sur l’auditabilité et la clarté de ces systèmes.

Le Digital Services Act (DSA) introduit une première ouverture mais plusieurs travaux soulignent que, la transparence seule, ne modifie pas nécessairement les pratiques (Observatoire audiovisuel européen, 2024). L’instauration de règles contraignantes sur la conception des algorithmes, assorties d’un contrôle par des organismes tiers, permettrait d’en corriger les effets amplificateurs (limitation de l’ « effet rabbit hole », diversification des recommandations).

Cette évolution traduit un déplacement du régime de responsabilité : les plateformes, longtemps assimilées à de simples hébergeurs neutres, sont de plus en plus considérées comme coproductrices de l’écosystème informationnel qu’elles créent. Si le DSA maintient l’irresponsabilité conditionnelle tant qu’un contenu illicite n’est pas notifié, il formalise une responsabilité de diligence (duty of care) imposant de mettre en œuvre tous moyens raisonnables pour réduire la diffusion de contenus problématiques.

Dans le cas des infox, l’absence de définition juridique univoque limite l’action à des obligations de moyens : détection des campagnes coordonnées, réduction de la viralité artificielle (bots, faux comptes), coopération avec les fact-checkers, étiquetage des médias contrôlés par des États. Or, l’ARCOM constatait dès 2021 une application inégale : certaines plateformes pratiquent une modération proactive, d’autres entretiennent des « sanctuaires » de désinformation, révélant les limites d’une régulation encore hétérogène.

Le conflit inhérent avec la régulation privée

Cette évolution se heurte à un niveau de régulation souvent sous-estimé mais décisif : celui des règles privées inscrites dans les Conditions Générales d’Utilisation (CGU) des réseaux sociaux. Celles-ci instaurent un pouvoir normatif autonome, extérieur au droit positif, fixant seuils de tolérance, critères de modération et sanctions souvent sans transparence ni véritable recours.

Cette normativité privée entre parfois en collision avec les législations nationales ou européennes. Héritée de la conception très large de la liberté d’expression du Premier amendement américain, la régulation des géants du numérique tolère ainsi des contenus prohibés en Europe (diffamation, incitation à la haine) et, inversement, supprime des publications licites au regard du droit français mais contraires à leurs règles internes. Résultat : une zone grise qui génère insécurité juridique pour les utilisateurs et complique l’application des décisions nationales, les plateformes pouvant invoquer leur juridiction d’origine ou leurs standards pour s’y soustraire.

Le DSA cherche à réduire cette asymétrie en imposant un socle commun d’obligations à toutes les plateformes opérant dans l’UE, quel que soit leur siège. La lutte contre les contenus illicites y compris dans des affaires ciblées comme celle de Brigitte Macron suppose désormais l’articulation de trois niveaux :

National, qui fixe les principes de responsabilité mais dispose de moyens coercitifs limités ; Européen, doté d’instruments robustes et de sanctions financières lourdes ;

Privé, incarné par les CGU, dont l’encadrement est indispensable pour éviter l’émergence d’une justice parallèle.

Ce triple niveau illustre la complexité d’un environnement où liberté d’expression, lutte contre les manipulations et souveraineté juridique se chevauchent

Liberté d’expression vs protection contre les infox : un équilibre délicat

La liberté d’expression est un pilier des sociétés démocratiques et une liberté fondamentale protégée (par ex. par l’article 10 de la CEDH). Toute régulation de la désinformation doit donc prendre garde à ne pas instaurer une censure d’opinion ou une vérité officielle d’État. Le défi est d’autant plus complexe qu’elle se situe souvent dans un terrain flou : entre mensonge délibéré (propagande malveillante) et erreur ou rumeur spontanée, et que la définir légalement peut ouvrir la porte à des abus (certains régimes dits autoritaires utilisent des lois « anti-fake news » pour museler la presse indépendante). Les institutions européennes en sont conscientes : une déclaration conjointe des rapporteurs spéciaux de l’ONU, OSCE et de L’OEA en 2017 a explicitement mis en garde contre les lois répressives sur les fausses informations, leur préférant des approches axées sur l’intelligibilité, l’éducation et le soutien au journalisme de qualité. De même, le Conseil de l’Europe a évité le terme « fausses nouvelles » dans ses travaux, jugeant qu’il « échoue à rendre compte de la complexité du phénomène » et préférant distinguer désinformation, mésinformation et info malveillante pour des réponses graduées.

Vers une résilience cognitive collective

L’affaire « Trogneux » montre que la désinformation résulte d’un enchevêtrement de facteurs biais cognitifs, viralité algorithmique et calculs politiques qui dépasse largement le cadre d’un simple manquement informationnel. Or, une réponse purement répressive ou juridique se heurte à ses limites : elle traite les symptômes sans agir sur les causes.

Pour qu’une démocratie puisse résister durablement à ces dynamiques, elle doit investir dans une résilience cognitive collective. Cela suppose de doter les citoyens des outils intellectuels pour repérer les manipulations, questionner leurs propres biais et analyser la charge émotionnelle des contenus.
L’éducation aux médias, la métacognition et la pensée critique constituent ici des leviers indissociables. Ces compétences ne remplacent pas la régulation, mais elles en conditionnent l’efficacité : le Digital Services Act peut instaurer des obligations et sanctions, mais il ne peut produire une vigilance citoyenne active. Sans cette articulation entre régulation institutionnelle et culture cognitive partagée, toute lutte contre la désinformation restera incomplète et donc fragile.

Bibliographie 

Morin, E. (1969). La rumeur d’Orléans. Paris : Éditions du Seuil.

Arendt, H. (1967). Truth and Politics. The New Yorker, February 25.

Kapferer, J.-N. (1990). Rumeurs : Le plus vieux média du monde. Paris : Éditions du Seuil.

Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an

Renard, J.-B. (2004). La rumeur comme révélateur social. Hermès, La Revue, (40), 89–96.

Campion-Vincent, V., & Renard, J.-B. (1992). Légendes urbaines : Rumeurs d'aujourd'hui. Paris : Éditions Payot.

ARCOM. (2021). Bilan annuel de l’action contre la désinformation en ligne. Paris :

Règlement sur les services numériques (Digital Services Act). Bruxelles : Commission européenne.

Di Meglio, A. (2025, 25 juillet). Affaire Brigitte Macron : diffamation, transgenre, relaxe.

YouTube. (2025, juillet). Affaire Brigitte Macron : diffamation, transgenre, relaxe en appel ! Explications juridiques [Vidéo]. YouTube

SOS Homophobie. (2025). Dossier de presse du rapport 2024 sur les LGBTIphobies.

Pacific Standard. (n.d.). Michelle Obama trans-truthers reveal persisting prejudices.

The Straits Times. (2023, décembre). Disinformation, potent weapon against powerful women.

In Press. (2025, 23 juillet). Rumeurs, croyances et théories du complot : L’analyse de la psychologie sociale.

The Decision Lab. (n.d.). Confirmation bias. Wikipedia. (n.d.). Digital Services Act.

Continuer la lecture avec l'article suivant du numéro

Varia/ La littérature contemporaine devant le mythe de l’effondrement

Jean-Paul ENGÉLIBERT

Cet article analyse la prolifération des fictions d’effondrement dans la littérature contemporaine à l'aune de l'exigence d'Adorno de se confronter à la négativité du monde. L’auteur déconstruit d’abord ce qu’il nomme le « mythe de l’effondrement », un discours dépolitisant qui présente la catastrophe comme un événement global, soudain, définitif et strictement anthropocentré. En s’appuyant sur l’étude d’œuvres de Pierre Alferi, Davide Longo, Robert Merle, Matthieu Duperrex et Céline Minard, l'article démontre comment la fiction peut agir comme un «...

Lire la suite

Du même auteur

Tous les articles

Aucune autre publication à afficher.